home *** CD-ROM | disk | FTP | other *** search
/ Black Crawling Systems Archive Release 1.0 / Black Crawling Systems Archive Release 1.0 (L0pht Heavy Industries, Inc.)(1997).ISO / cdc / cdc289.txt < prev    next >
Text File  |  1995-03-03  |  20KB  |  292 lines

  1.  
  2.                                     _
  3.                                    | \
  4.                                    |  \
  5.                                    | | \
  6.                             __     | |\ \             __
  7.       _____________       _/_/     | | \ \          _/_/     _____________
  8.      |  ___________     _/_/       | |  \ \       _/_/       ___________  |
  9.      | |              _/_/_____    | |   > >    _/_/_____               | |
  10.      | |             /________/    | |  / /    /________/               | |
  11.      | |                           | | / /                              | |
  12.      | |                           | |/ /                               | |
  13.      | |                           | | /                                | |
  14.      | |                           |  /                                 | |
  15.      | |                           |_/                                  | |
  16.      | |                                                                | |
  17.      | |      c   o   m   m   u   n   i   c   a   t   i   o   n   s     | |
  18.      | |________________________________________________________________| |
  19.      |____________________________________________________________________|
  20.  
  21.   ...presents...     Can There Be Artificial Intelligence?
  22.                                                          by Tequila Willy
  23.  
  24.                       >>> a cDc publication.......1994 <<<
  25.                         -cDc- CULT OF THE DEAD COW -cDc-
  26.   ____       _     ____       _       ____       _     ____       _       ____
  27.  |____digital_media____digital_culture____digital_media____digital_culture____|
  28.  
  29.      Since the dawn of history, men have dreamed of other forms of intelligent
  30. life.  There is something within the nature of mankind to reach out, to become
  31. like gods.  Today, in our technologically advanced society, the potential is
  32. right around the corner.  Even in this modern world of technological marvels,
  33. there are many hurdles to overcome.  If the technological boundaries are
  34. overcome, there are still those who believe that no man-made device will think
  35. like a human being.  The doubts of the unbelievers should fade from the
  36. memories of the human race as the first machines begin to think.
  37.  
  38.      Philosophers and scientists alike have been questing for artificial
  39. intelligence.  It has only been in this century that the goal has been at least
  40. feasible.  When looking for artificial intelligence, a researcher must look
  41. inward before starting anything else.  The human mind and soul are two things
  42. that we have very little knowledge of.  The way our brains work, and why we are
  43. able to think are some of the most important things in our society.  When we
  44. are born, we are self-aware, and it is a general belief that self-awareness is
  45. only possible in humans because of the way we are born.  In fact, most people
  46. never pay any attention to what happens during the gestation period.  It has
  47. been shown that once the brain is developed, it immediately starts to process
  48. information.  It cannot be proven in either direction that there is self-
  49. awareness at that state.  It could turn out, in the end, that computers
  50. designed for thought will have to go through a gestation process, and learn
  51. just like a child.  The opposition to the theory of artificial intelligence,
  52. and the arguments against AI have helped to move research ahead by pointing out
  53. flaws in AI theories.
  54.  
  55.      There is a lot of technical material presented below, so there are some
  56. terms that should be explained before continuing.  The first term is serial
  57. computer, which is a computer that is distinguished by its capability to handle
  58. only one operation at a time.  The second term is parallel processing, which is
  59. a method of computing where more than one operation can be handled at a time
  60. (Churchland and Churchland 35).  For example, give a task to two computers, one
  61. parallel processing, and one serial processing; the serial computer attacks the
  62. problem one step at a time, taking a large amount of time while the computer
  63. that is capable of parallel processing breaks the task down into simpler
  64. operations and then executes the task concurrently with other nodes of the
  65. processor.  The result is that the parallel processor, being able to do many
  66. things at a time, finishes the task in a fraction of the time.  The third term
  67. that is used often is a computing architecture known as neural networks.  A
  68. neural network is a system of processors, or nodes of a processor, linked to
  69. other nodes in the way neurons in the brain are connected (35).  The way that
  70. the neural network works is that the strength of the connections made from the
  71. input of the network to the output of the network allows a more humanlike
  72. ability to operate in a more than binary basis (35).  To clarify, a human
  73. neuron is capable of firing its electrical charge at many different levels,
  74. with each level signifying a different thing (36).  This allows a greater
  75. variety in the amount and variety of information that the computer can pass
  76. along.  The next term used in this paper is classical artificial intelligence
  77. (or AI for short).  Classical artificial intelligence was the school of AI that
  78. felt that given a powerful enough computer and the properly crafted programs,
  79. you could get a machine that would be able to think (34).
  80.  
  81.      John R. Searle, in his essay from the _Scientific American_ from January
  82. 1990, writes that machines, no matter what the power, or their internal
  83. architecture will not be able to think.  His main argument is what he calls his
  84. Chinese room experiment (Searle 26).  The experiment goes like this: first you
  85. lock some person in a room where there is a door with two mail slots, one in
  86. and one out.  Into the room now and then come a pile of Chinese symbols in
  87. through the slot.  The person inside the room also has a rule book that
  88. explains, in a language he understands, what he should do with the symbols
  89. coming into the room, and having used the rule book to manipulate the symbols,
  90. he drops the rearranged symbols down through the out slot (26).  His point,
  91. using this example, is that if he does not understand Chinese because of
  92. running a computer program for understanding Chinese, then another computer
  93. wouldn't either.  This means that simply manipulating symbols isn't enough to
  94. create cognition, or thinking, therefore, according to him, making it
  95. impossible for a computer to think (26).
  96.  
  97.      He then breaks down his arguments into axioms that he draws his
  98. conclusions from.  The first axiom is this: "Computer programs are formal
  99. (syntactic)" (27).  Syntactic means purely formal.  He explains the axiom
  100. further by an example, "A computer processes information by first encoding it
  101. into the symbolism that the computer uses and then manipulating the symbols
  102. through a set of precisely stated rules.  These rules constitute the program"
  103. (27).  Before introducing his second axiom he points out that symbols and
  104. computer programs are abstract entities.  In computers the symbols can stand
  105. for anything the programmer wants.  So, according to Searle, the program has
  106. syntax, yet it doesn't have semantics.  This leads to his next axiom, which is:
  107. "Human minds have mental contents (semantics)" (27).  His third axiom is this:
  108. "Syntax by itself is neither constitutive of nor sufficient for minds" (27).
  109. His explanation of that axiom is quite simple.  He says that merely
  110. manipulating symbols is not enough to guarantee knowledge of what they mean.
  111. Later in his paper he poses another axiom, "Brains cause minds" (29).  In other
  112. words that thought is dependent on the biological processes of the human brain.
  113.  
  114.      The first conclusion that he draws from his axioms is "Programs are
  115. neither constitutive of nor sufficient for minds" (27).  This conclusion is
  116. pretty clear, saying that computers are incapable of having minds.  The second
  117. conclusion is: "Any other system capable of causing minds would have to have
  118. causal powers equivalent to those of brains" (29).  His example of the
  119. conclusion states that for an electrical engine to drive a car as fast as a gas
  120. engine the electrical engine must produce an energy output at least as high as
  121. a gas engine (29).  His third conclusion is that "Any artifact that produced
  122. mental phenomena, any artificial brain, would have to be able to duplicate the
  123. specific causal powers of brains, and it could not do that by simply running a
  124. program" (29).  The fourth conclusion that he draws from his axioms is this:
  125. "The way that human brains actually produce mental phenomena cannot be solely
  126. by virtue of running a computer program" (29).
  127.  
  128.      The argument presented by John M. Searle is quite formidable, with his
  129. Chinese room example, and then the arguments that he goes on to present.  Some
  130. of the conclusions and axioms, however, although they look sound at first, are
  131. deceptively untrue.  An analysis of the arguments will show that they are
  132. faulty.
  133.  
  134.      First, Searle's Chinese room example only applies to symbol-manipulating
  135. computers.  In S-M machines the prospect of one ever being able to think is
  136. highly doubtful, only because their architecture is incomparable to human brain
  137. structure.  The human brain is the only thing we know to definitely possess
  138. intelligence.  The problem with Searle's Chinese room example, at least in
  139. reference to parallel processing and neural networked machines is that they
  140. don't work the way that S-M machines work.  They use a method of processing
  141. called vector processing (Churchland and Churchland 36).  The way that it works
  142. is that when you send a combination of neural activations on one level of the
  143. net, it will pass through the network on certain vectors caused by the
  144. activation pattern and then output in another unique pattern (36).  This
  145. process is much like the way that the human brain is believed to work.  This
  146. type of processing is such that symbols are never manipulated in the fashion
  147. that is presented in the Chinese room argument.  Symbol manipulation in a
  148. vector-processing system may or may not be one of the cognitive skills that it
  149. may display as a characteristic (36).  Therefore, the Chinese room is
  150. non-applicable to the argument.  Searle argues against parallel processing by
  151. presenting what he calls a Chinese gymnasium (Searle 28).  The gist of the
  152. example is instead of the one man in the room, the room is full of men in a
  153. parallel architecture.  He explains that none of them understands Chinese, and
  154. the only thing accomplished by the extra men is that it would output faster,
  155. without any comprehension (28).  The problem with this argument is that it is
  156. unnecessary that the individual men need to know Chinese, as a single neuron
  157. doesn't know any language either, but the whole thing probably does (Churchland
  158. and Churchland 37).  For his Chinese gymnasium example to be fair there would
  159. have to be the entire populations of 10,000 Earths in the gym (37).  There is
  160. no way to prove there is no comprehension of Chinese in a network of that
  161. magnitude.  Essentially what you would have in a room that size, with that many
  162. people, is a gigantic, slow brain.  Mr. Searle argues against this view by
  163. saying that it really doesn't matter, if nobody understands Chinese, neither
  164. will the entire system (Searle 29).  The answer to that objection is that it is
  165. possible, with the right architecture, to teach a computer Chinese.  If the
  166. computer's structure was brainlike, the computer would be no different from a
  167. Chinese child learning to communicate.
  168.  
  169.      Searle's arguments for not believing that computers are capable of human
  170. thought are based on several simple axioms that he believes are true in all
  171. types of computers.  The axioms he presents are sound.  All, except the last
  172. one, which was, "Brains cause minds" (29).  In that axiom he declares that
  173. minds are only capable of existing in brains, because brains are a biological
  174. organ, with neurotransmitters, etc... (29).  This premise is not necessarily
  175. true.  For example, in the Churchland article, they present an example of how
  176. that axiom is not true.  Carver A. Mead, a researcher at the California
  177. Institute of Technology, and his colleagues used analog VLSI (Very Large Scale
  178. Integration) techniques to build an artificial retina (Churchland and
  179. Churchland 37).  The machine is not a computer simulation of a retina, but an
  180. actual real-time information processing unit that responds to light (37).  The
  181. circuitry is based on the actual organ in a cat, and the output is incredibly
  182. similar to the actual output of the cat's retina (37).  The process that is
  183. used is completely without neurochemicals, so there really is no need for them,
  184. hence the supposition that a mind can only exist in a brain is absurd.
  185.  
  186.      The conclusions that he draws from those axioms are not without flaws.
  187. His first conclusion is that "Programs are neither constitutive nor sufficient
  188. for minds" (Searle 29).  In a standard sense, it is probably the correct
  189. conclusion, at least for the classical AI.  The new artificial intelligence,
  190. however, is a merging of hardware and software in a synergistic relationship,
  191. so programs will not solely handle the challenge of intelligence, but the
  192. software will play a significant part in it.  If you look at the rest of his
  193. conclusions, you will find that they are really only applicable to formal
  194. programs alone, not software/hardware synergies, so they must be irrelevant to
  195. the argument.  With his second conclusion, he essentially agrees that there is
  196. a very real possibility of an artificial intelligence, as long as its causal
  197. powers are at least that of the brain.  Modeling computers after the human
  198. brain makes it probable that it can be done.
  199.  
  200.      It is improbable that there will be any thinking machines for many years.
  201. The future holds many keys to this process.  It is necessary there be a greater
  202. understanding of the mechanics of thought and memory before this end is
  203. possible.  Classical artificial intelligence is obviously not going to work,
  204. for the reasons stated earlier in the paper.  The answer obviously lies in the
  205. realm of parallel processing and neural networks.  It has been proven that very
  206. complicated and fast matrices of electronics can replicate biological
  207. functioning, as in the example of the artificial retinas (Churchland and
  208. Churchland 37).  Where the possibility lies is in the realm of combining the
  209. processing abilities of complex computer architectures and the increasingly
  210. sophisticated software needed to harness this power.
  211.  
  212.      We may find a solution within the psychology of childhood development.
  213. When a child is born it is a blank slate.  In essence, they do not have any
  214. real formed concepts, like those of syntax and semantics.  This is the way that
  215. we should perceive a newly made computer of the kind that represents the human.
  216. Everything must start from scratch, therefore it is necessary to teach the
  217. computer as you would a baby.  This process is harder than teaching a newborn
  218. child, since they are born with cognizance, but with time and knowledge of what
  219. a computer needs to learn to become self-aware, it is possible.  There are
  220. currently experiments going on where a doctor and an army of assistants are
  221. building a base of language, and entering it, with referents to what they mean,
  222. into the computer.  They are essentially teaching the computer manually what is
  223. normally experienced by a child.  For example, a single word can have immense
  224. amounts of referents, such as: what it is, what it can be compared to, and what
  225. connotations are generally associated with them.  A word like "duck" for
  226. example, could take weeks of compiling information, since you have to not only
  227. put the concept of "duck" together, but also that of a bird, of colors, of
  228. feathers, the basics of anatomy, and popular notions associated with the word
  229. "duck."  With each layer of explanations you encounter you find a whole new
  230. level of terms to define.  It is well-known that even the least intelligent
  231. human being carries around a simply astonishing amount of information.  The
  232. hardest things to define are on the simplest level of understanding, the
  233. general hope of researchers is that with enough of the complex composite
  234. concepts, the computer will be able to use the whole of its knowledge to puzzle
  235. out the simple pieces.  This idea seems entirely logical, since it is something
  236. that human beings try to every single day.  Humans are the same in that
  237. respect, if we knew these simple truths, all philosophers and other scientists
  238. would be simply unnecessary, as we would know all those things.  To date, the
  239. scientists trying this experiment have succeeded in inputting almost all the
  240. knowledge that an average 3 year old child has.  The strange thing is that in a
  241. system like this, the computer seems to have a curious nature.  This would lead
  242. one to think that the machine were cognizant, although in reality it most
  243. probably is not the case.  The programs that compose this machine are simply
  244. calling for more input to make it run more efficiently.  Although this is not
  245. real thought yet one would suppose that this will be possible when the
  246. computer's electronic architecture is sufficient to begin to change its own
  247. programs.  That means that it would be working enough like a brain to revise
  248. its beliefs, since beliefs are nothing less than knowledge in itself.
  249.  
  250.      The brain is a gigantic scale information processing machine, which is
  251. simply a biological form of computer.  The implications of this call for a
  252. rational person to assume if it is possible for a biological machine to think,
  253. it would follow there would be a machine of a non-biological (ie. electronic)
  254. nature that would be able to think, at least it would be if the electronic
  255. brain was built to the equivalent of a human brain.
  256.  
  257.      Technology has increased exponentially in the last thirty years, but we
  258. are still many years away from the first truly cognizant machines.  Because of
  259. the arguments brought up, it is really impossible to prove there will be
  260. cognizant machines, at least in a deductive sense.  In an inductive sense it
  261. could be said there is a strong probability there will be a day when there will
  262. be an intelligent machine.  It has been proven that the answer definitely does
  263. not lie in the realm of computer programs in the manner of classical artificial
  264. intelligence, since the computer architecture that is necessary for thought is
  265. simply impossible in the traditional symbol-manipulating machine.  That part of
  266. the argument is not in doubt, it is when you come into the hardware/software
  267. synergy arena that the battle becomes heated.  Mr. Searle presents some very
  268. strong arguments against the possibility, but these arguments are not
  269. sufficient to destroy the possibility of computer thought.  In a case of
  270. predicting the future there can be no definite proof, but if science and
  271. technology can raise to the challenge of replicating the function of a human
  272. brain, there will be, eventually, a computer that can think.
  273.  
  274.  
  275.                                   Works Cited:
  276.  
  277. Churchland, Paul and Churchland, Patricia. "Could A Machine Think?"
  278.      _Scientific American_ Jan. 1990: 32-37.
  279.  
  280. Searle, John M.  "Is A Brain's Mind a Computer Program?"  _Scientific American_
  281.      Jan. 1990: 26-31.
  282.  _______  __________________________________________________________________
  283. / _   _ \|Demon Roach Undrgrnd.806/794-4362|Kingdom of Shit.....806/794-1842|
  284.  ((___)) |Cool Beans!..........415/648-PUNK|Polka AE {PW:KILL}..806/794-4362|
  285.  [ x x ] |Metalland Southwest..713/579-2276|ATDT East...........617/350-STIF|
  286.   \   /  |The Works............617/861-8976|Ripco ][............312/528-5020|
  287.   (' ')  |            Save yourself!  Go outside!  DO SOMETHING!            |
  288.    (U)   |==================================================================|
  289.   .ooM   |Copyright (c) 1994 cDc communications and Tequila Willy.          |
  290. \_______/|All Rights Reserved.                               11/01/1994-#289|
  291.  
  292.